In the field of cross-modal retrieval, single encoder models tend to perform better than dual encoder models, but they suffer from high latency and low throughput. In this paper, we present a dual encoder model called BagFormer that utilizes a cross modal interaction mechanism to improve recall performance without sacrificing latency and throughput. BagFormer achieves this through the use of bag-wise interactions, which allow for the transformation of text to a more appropriate granularity and the incorporation of entity knowledge into the model. Our experiments demonstrate that BagFormer is able to achieve results comparable to state-of-the-art single encoder models in cross-modal retrieval tasks, while also offering efficient training and inference with 20.72 times lower latency and 25.74 times higher throughput.
translated by 谷歌翻译
Pedestrian detection in the wild remains a challenging problem especially for scenes containing serious occlusion. In this paper, we propose a novel feature learning method in the deep learning framework, referred to as Feature Calibration Network (FC-Net), to adaptively detect pedestrians under various occlusions. FC-Net is based on the observation that the visible parts of pedestrians are selective and decisive for detection, and is implemented as a self-paced feature learning framework with a self-activation (SA) module and a feature calibration (FC) module. In a new self-activated manner, FC-Net learns features which highlight the visible parts and suppress the occluded parts of pedestrians. The SA module estimates pedestrian activation maps by reusing classifier weights, without any additional parameter involved, therefore resulting in an extremely parsimony model to reinforce the semantics of features, while the FC module calibrates the convolutional features for adaptive pedestrian representation in both pixel-wise and region-based ways. Experiments on CityPersons and Caltech datasets demonstrate that FC-Net improves detection performance on occluded pedestrians up to 10% while maintaining excellent performance on non-occluded instances.
translated by 谷歌翻译
玻璃在我们的日常生活中非常普遍。现有的计算机视觉系统忽略了它,因此可能会产生严重的后果,例如,机器人可能会坠入玻璃墙。但是,感知玻璃的存在并不简单。关键的挑战是,任意物体/场景可以出现在玻璃后面。在本文中,我们提出了一个重要的问题,即从单个RGB图像中检测玻璃表面。为了解决这个问题,我们构建了第一个大规模玻璃检测数据集(GDD),并提出了一个名为GDNet-B的新颖玻璃检测网络,该网络通过新颖的大型场探索大型视野中的丰富上下文提示上下文特征集成(LCFI)模块并将高级和低级边界特征与边界特征增强(BFE)模块集成在一起。广泛的实验表明,我们的GDNET-B可以在GDD测试集内外的图像上达到满足玻璃检测结果。我们通过将其应用于其他视觉任务(包括镜像分割和显着对象检测)来进一步验证我们提出的GDNET-B的有效性和概括能力。最后,我们显示了玻璃检测的潜在应用,并讨论了可能的未来研究方向。
translated by 谷歌翻译
我们提出了一个新问题:代理可以学习如何将以前任务中的动作结合起来,以完成新任务,就像人类一样?与模仿学习相反,没有专家数据,只有通过环境探索收集的数据。与离线增强学习相比,数据分配转移的问题更为严重。由于解决新任务的动作顺序可能是多个培训任务的轨迹段的组合,换句话说,测试任务和求解策略不直接存在于培训数据中。这使问题更加困难。我们提出了一种与内存相关的多任务方法(M3)来解决此问题。该方法包括三个阶段。首先,进行任务不足的探索以收集数据。与以前的方法不同,我们将探索数据组织到知识图中。我们根据勘探数据设计一个模型,以提取动作效果功能并将其保存在记忆中,同时训练了动作预测模型。其次,对于新任务,存储在内存中的动作效应特征用于通过基于特征分解的方法来生成候选动作。最后,一个多尺度的候选动作池和动作预测模型融合在一起,以生成完成任务的策略。实验结果表明,与基线相比,我们提出的方法的性能得到了显着提高。
translated by 谷歌翻译
通过开发基于生成的自我监督学习(SSL)方法,例如Beit和Mae,如何通过掩盖输入图像的随机补丁并重建缺失信息来学习良好的表示形式。但是,Beit和Peco需要一个“预先陈述”阶段,以生成用于掩盖补丁代表的离散代码手册。 MAE不需要预训练的代码簿流程,但是将像素设置为重建目标可能会引入前训练和下游任务之间的优化差距,即良好的重建质量可能并不总是会导致模型的高描述能力。考虑到上述问题,在本文中,我们提出了一个简单的自鉴定的蒙面自动编码器网络,即SDAE。 SDAE由一个使用编码器解码器结构的学生分支组成,以重建缺失的信息,并制作一个师范分支,生产蒙版代币的潜在表示。我们还分析了如何从信息瓶颈的角度来为教师分支机构建立潜在代表性的好看法。之后,我们提出了一种多重掩蔽策略,以提供多个掩盖视图,并具有平衡的信息以提高性能,这也可以降低计算复杂性。我们的方法很好地概括了:只有300个时期预训练,香草vit-base模型在Imagenet-1K分类上达到了84.1%的微调精度,48.6 MIOU在ADE20K细分方面和48.9 coco检测中的MAP,它超过了其他方法,从而超过其他方法。通过相当大的边距。代码可从https://github.com/abrahamyabo/sdae获得。
translated by 谷歌翻译
在本文中,我们提出了一种新颖的注释和评估方案,以进行视觉识别。与传统设置不同,该协议不需要标签/算法就可以立即注释/识别所有目标(对象,零件等),而是提出了许多识别说明,并且该算法通过请求识别目标。这种机制带来了两种有益的特性来减轻注释负担,即(i)可变粒度:不同的情况可以具有不同级别的注释,尤其是对象部分只能在大而清晰的实例中标记,(ii)被打开(ii) - 域:可以将新概念以最低的成本添加到数据库中。为了处理提出的设置,我们维护知识库并设计一个基于查询的视觉识别框架,该框架可以根据请求直接构建查询。我们在两个混合注销的数据集(CPP和ADE20K)上评估了识别系统,并演示了其从部分标记的数据中学习的有希望的能力,以及仅使用文本标签来适应新概念。
translated by 谷歌翻译
昂贵注释的要求是培训良好的实例细分模型的重大负担。在本文中,我们提出了一个经济活跃的学习环境,称为主动监督实例细分(API),该实例分段(API)从框级注释开始,并迭代地在盒子内划分一个点,并询问它是否属于对象。API的关键是找到最大程度地提高分段准确性的最佳点,以有限的注释预算。我们制定此设置,并提出几种基于不确定性的抽样策略。与其他学习策略相比,使用这些策略开发的模型可以在具有挑战性的MS-Coco数据集上获得一致的性能增长。结果表明,API集成了主动学习和基于点的监督的优势,是标签有效实例分割的有效学习范式。
translated by 谷歌翻译
视觉预读(VLP)模型最近成功地促进了许多跨模式下游任务。大多数现有作品通过比较微调的下游任务性能来评估其系统。但是,只有平均下游任务准确性才能提供有关每种VLP方法的优缺点的几乎没有信息,更不用说有关社区如何改善系统的见解。受清单进行自然语言处理的启发,我们引入了VL-CheckList,这是一个新颖的框架,以了解VLP模型的功能。所提出的方法将VLP模型的图像定位能力分为三类:对象,属性和关系,并使用新颖的分类法进一步分解这三个方面。我们进行了全面的研究,通过提出的框架分析了七个最近流行的VLP模型。结果通过揭示了仅在下游任务评估中看不见的模型之间的细粒度差异来证实所提出的方法的有效性。进一步的结果表明,在构建更好的VLP模型方面有希望的研究方向。数据和代码:https://github.com/om--ai-lab/vl-checklist
translated by 谷歌翻译
由于激光雷达扫描数据的大规模,噪音和数据不完整,注册Urban Point Clouds是一项艰巨的任务。在本文中,我们提出了SARNET,这是一个新型的语义增强注册网络,旨在在城市规模上实现有效的城市点云的注册。与以前仅在点级空间中构建对应关系的方法不同,我们的方法完全利用语义特征来提高注册精度。具体而言,我们提取具有高级语义分割网络的每点语义标签,并构建先前的语义零件到部分对应关系。然后,我们将语义信息纳入基于学习的注册管道中,该管道由三个核心模块组成:基于语义的最远点采样模块,以有效地滤除异常值和动态对象;一个语义增强的特征提取模块,用于学习更多的判别点描述符;语义改制的转换估计模块,该模块利用先前的语义匹配作为掩码,通过减少错误匹配以更好地收敛来完善点对应关系。我们通过使用来自城市场景的大区域的现实世界数据并将其与替代方法进行比较,从而广泛评估所提出的SARNET。该代码可在https://github.com/wintercodeforeverything/sarnet上找到。
translated by 谷歌翻译
深度神经网络能够学习强大的表示以应对复杂的视觉任务,但揭示了不合适的问题等不良属性。为此,深层神经网络等正规化技术诸如图像增强是必要的。然而,大多数普遍的图像增强食谱都局限于现成的线性转换,例如刻度,翻转和颜色jitter。由于其手工制作的财产,这些增强不足以产生真正的硬增强示例。在本文中,我们提出了一种新颖的增强视角,以使培训过程正常。受到将蒙版图像建模应用于自我监督学习的最新成功的启发,我们采用了自我监督的蒙版自动编码器来生成输入图像的扭曲视图。我们表明,利用这种基于模型的非线性转换作为数据增强可以改善高级识别任务。我们将提出的方法称为\ textbf {m} ask- \ textbf {r} econstruct \ textbf {a} u gengementation(mra)。各种图像分类基准的广泛实验验证了提出的增强的有效性。具体而言,MRA始终提高受监督,半监督和少量分类的性能。该代码将在\ url {https://github.com/haohang96/mra}上提供。
translated by 谷歌翻译